Впервые опубликованы "12 законов робототехники"

01.11.2018

Эксперты EPIC представили «12 законов робототехники».

Группа правозащитников из Центра электронной конфиденциальности (Electronic Privacy Information Center; EPIC) составила свод правил, призванный защитить человечество от угрозы бесконтрольного искусственного интеллекта.

Интересно, что обойтись тремя законами робототехники, как у Айзека Азимова, у экспертов не вышло. Список из двенадцати правил был обнародован на встрече коалиции Public Voice, созданной в 1996 году для содействия участию общества в принятии решений о будущем интернета.

В предисловии авторы отмечают, что по мере распространения искусственного интеллекта плоды его деятельности оказывают все большее влияние на жизнь человека — от выдачи кредита до получения работы или судебного приговора. Поэтому в данной сфере очень важно очертить руководящие принципы, которые должны обеспечить защиту прав человека, не допустить дискриминационных и неэтических решений со стороны автономных систем и минимизировать риск выхода ИИ из-под контроля.

«Нужно убедиться в том, что компании уделяют достаточно внимания разработке, внедрению и поддержке этических норм, которыми руководствуются системы ИИ», — заявили в EPIC.

Итак, «12 принципов этичного использования ИИ»:
  1. Право на справедливость. Разработчики ИИ обязаны удостовериться в том, что машина не имеет предубеждений и не дискриминирует людей по какому-либо признаку.
  2. Право на прозрачность. Люди имеют право знать факторы, логику и технологии, которые использует машина для принятия решения.
  3. Предварительная оценка и ответственность. Автономная система может быть развернута только после предварительного тестирования, описания ее преимуществ, целей и выполняемых задач; также необходимо заранее обозначить риски. Разработчики несут полную ответственность за те решения, что принимаются ИИ.
  4. Обязательная проверка систем ИИ, взаимодействующих с физическими объектами, публичными институтами. Перед тем, как такой искусственный интеллект будет развернут, независимая публичная сторона должна оценить риски и проверить механизмы контроля и безопасности.
  5. Решения, принимаемые машиной, должны быть точными, надежными и обоснованными.
  6. Разработчики обязаны наделить автономные системы надежной защитой от несанкционированного доступа.
  7. ИИ не имеет права профилировать пользователей без их согласия.
  8. Государственные ведомства не имеют права при помощи ИИ присваивать гражданам рейтинговые баллы (как это сейчас происходит в Китае).
  9. Право на человеческое решение — только люди, а не алгоритмы, могут выносить финальное решение.
  10. Требование идентификации — организация, ответственная за ИИ, должна быть известна обществу.
  11. Требования качества данных — компании должны указывать источник данных, на основе которых был обучен ИИ, обеспечивать их качество и релевантность.
  12. Реализация функции прекращения работы — компания, разработавшая ИИ, должна прекратить деятельность системы, если человеческий контроль над ней более невозможен.

Обнародовав свод правил, активисты предложили правительству США принять его как руководящий. Под  открытым письмом подписались свыше 200 экспертов и 50 организаций, включая Федерацию американских ученых и Проект по защите информаторов Government Accountability Project.

Джерело:
https://socportal.info/2018/11/01/vpervye_opublikovany_12_zakonov_robototehniki.html

Universal Guidelines for Artificial Intelligence

23 October 2018
Brussels, Belgium

New developments in Artificial Intelligence are transforming the world, from science and industry to government administration and finance. The rise of AI decision-making also implicates fundamental rights of fairness, accountability, and transparency. Modern data analysis produces significant outcomes that have real life consequences for people in employment, housing, credit, commerce, and criminal sentencing. Many of these techniques are entirely opaque, leaving individuals unaware whether the decisions were accurate, fair, or even about them.

We propose these Universal Guidelines to inform and improve the design and use of AI. The Guidelines are intended to maximize the benefits of AI, to minimize the risk, and to ensure the protection of human rights. These Guidelines should be incorporated into ethical standards, adopted in national law and international agreements, and built into the design of systems.  We state clearly that the primary responsibility for AI systems must reside with those institutions that fund, develop, and deploy these systems.

  1. Right to Transparency. All individuals have the right to know the basis of an AI decision that concerns them. This includes access to the factors, the logic, and techniques that produced the outcome.
  2. Right to Human Determination. All individuals have the right to a final determination made by a person.
  3. Identification Obligation. The institution responsible for an AI system must be made known to the public.
  4. Fairness Obligation. Institutions must ensure that AI systems do not reflect unfair bias or make impermissible discriminatory decisions.
  5. Assessment and Accountability Obligation. An AI system should be deployed only after an adequate evaluation of its purpose and objectives, its benefits, as well as its risks. Institutions must be responsible for decisions made by an AI system.
  6. Accuracy, Reliability, and Validity Obligations. Institutions must ensure the accuracy, reliability, and validity of decisions.
  7. Data Quality Obligation. Institutions must establish data provenance, and assure quality and relevance for the data input into algorithms.
  8. Public Safety Obligation. Institutions must assess the public safety risks that arise from the deployment of AI systems that direct or control physical devices, and implement safety controls.
  9. Cybersecurity Obligation. Institutions must secure AI systems against cybersecurity threats.
  10. Prohibition on Secret Profiling. No institution shall establish or maintain a secret profiling system.
  11. Prohibition on Unitary Scoring. No national government shall establish or maintain a general-purpose score on its citizens or residents.
  12. Termination Obligation. An institution that has established an AI system has an affirmative obligation to terminate the system if human control of the system is no longer possible.
EXPLANATORY MEMORANDUM AND REFERENCES